11 ситуации во кои не треба да се користи ChatGPT

Вештачката интелигенција сè повеќе станува дел од секојдневието, но експертите од американскиот технолошки портал CNET (Computer Network) предупредуваат дека популарниот AI четбот ChatGPT не е решение за сè. Порталот неодамна објави листа од 11 ситуации во кои користењето на ChatGPT може да биде ризично или контрапродуктивно.

zabrana-mk-3893

Извор: DALL-E3

Според нивната анализа, иако ChatGPT може да биде корисен за планирање патувања, учење јазици или пишување програмски код, постојат сериозни ограничувања кога станува збор за чувствителни, лични или правно и медицински значајни теми.

Поставување здравствени дијагнози

ChatGPT не треба да се користи за дијагностицирање на симптоми, бидејќи постои ризик од погрешни или алармантни одговори. Вештачката интелигенција не може да го прегледа пациентот ниту да препише лабораториски анализи, а грешките можат да предизвикаат непотребна паника или одложување на соодветна медицинска помош.

Ментално здравје

Како замена за терапевт, ChatGPT не е сигурен, нема емпатија, искуство, ниту професионална лиценца. Може да понуди основни техники за смирување, но посериозните ментални кризи бараат човечки стручњаци и одговорност што AI не ја поседува.

Итни безбедносни ситуации

Во случаи на итност, како истекување гас или пожар, ChatGPT не може да ја детектира опасноста ниту да повика итна служба. Секоја секунда изгубена на внесување на прашање може да ја загрози безбедноста.

Даночно и финансиско планирање

Иако може да објасни основни концепти, ChatGPT не ги знае личните финансиски податоци на корисникот ниту е во тек со најновите даночни закони. Поради тоа не може да го замени квалификуваниот книговодител или финансиски советник.

Ракување со доверливи податоци

Доверливи информации, како медицинска документација или деловни договори, не треба да се внесуваат во ChatGPT, бидејќи податоците се испраќаат на сервери на трети страни и може да станат дел од обуката на AI моделот или цел на безбедносни ризици.

Извршување на нелегални дејства

Користењето на AI алатки за какви било незаконски активности е очигледно неприфатливо и противзаконски, па не е потребно дополнително објаснување.

Злоупотреба на AI во образованието

Сè повеќе образовни институции користат алатки за препознавање на содржина генерирана од AI. Експертите предупредуваат дека злоупотребата на ChatGPT носи ризик од суспензија, губење диплома или професионална лиценца.

Следење на актуелни вести и информации во реално време

Иако ChatGPT има можност за пребарување на интернет, не ги ажурира автоматски информациите, секое ново барање, бара рачно пребарување. За итни вести, официјалните извори и медиумите остануваат посигурни.

Коцкање

ChatGPT не треба да се користи за спортски прогнози или обложување, бидејќи може да „измисли“ неточни податоци за статистика или повреди на играчи.

Пишување тестаменти или други правни документи

Правно обврзувачките документи мора да бидат усогласени со локалните закони. ChatGPT не може да гарантира правна важност на текстот ниту да провери дали се исполнети сите законски услови.

Создавање уметност

Како последна препорака, авторите наведуваат личен став дека AI не треба да се користи за создавање уметнички дела што потоа се потпишуваат како оригинални. ChatGPT може да помогне во фазата на идеи, но не треба да биде замена за човечката креативност.

На крајот, CNET потсетува дека нивната матична компанија „Ziff Davis“ во април поднела тужба против OpenAI, токму поради наводна употреба на нивни авторски содржини за обука на моделот. Ова уште еднаш ја нагласува потребата од претпазливост при внесување чувствителни и оригинални содржини во вештачка интелигенција.

Извор: web-mind.rs

Избор на уредникот

Prijavi se na novosti.